Managed DisksをVMに適用してみる 

今回は新しく公開された「Managed Disks」について紹介いたします。

1.Managed Disksとは

VM(仮想マシン)のディスクの配置先となるストレージアカウントの管理をAzure側で担ってくれるというサービスです。

これまでAzureでVM(仮想マシン)を作成する時には、ストレージアカウントも同時に作成し、ユーザー側でその管理を行う必要がありました。

また、可用性セットについても、仕組み上では単独のストレージアカウントの中で振り分けている状態の為、何らかの障害でストレージアカウントごと機能不全に陥った場合には可用性セット自体が機能しないという問題がありましたが、今回のManaged Disksを適用することで、分散したストレージアカウント上で可用性セットが利用できるようになります。

https://azure.microsoft.com/ja-jp/services/managed-disks/

2.Managed Disksを使ってみる

新規にAzure VMを立てる際にManaged Disksを利用する場合は、Azureポータル上での作成ウィザードで指定することができます。

一方、既存のVMにManaged Disksを適用したい場合はPowerShellを操作する必要があります。
※Managed Disksのモジュールが含まれているのはver3.5.0からとなりますので、必要な方は管理者権限でPowerShellを開き、下記コマンドでアップグレードしてください。

[crayon-5f2c9d38f22dd888009993/]

PowerShellを開き、Azureのログインを実施したら、必要な変数を設定します。

[crayon-5f2c9d38f22f1755941747/]

続いて、対象の仮想マシンが稼働中の場合は停止させます。

[crayon-5f2c9d38f22fe534455318/]

停止が確認されたら、下記コマンドでManaged Disksを適用します。

[crayon-5f2c9d38f230a297115656/]


成功すると、Azureポータル上でもディスクの状態がReservedとなります。

上記のようにPowerShellを使えば、既存のVMも簡単にManaged Disksが適用できる為、今稼働させているVMがあれば是非Managed Disks化することをお勧めします。


仮想マシンのスケールセットを試す 

今回は仮想マシンのスケールセットを試してみます。

1.仮想マシンの自動スケール

従来Azureの仮想マシンをアクセスに応じて動的にスケールするには、スケールさせる台数分の仮想マシンを用意し、ロードバランサに紐づける必要がありましたが、今回ご紹介するスケールセットを利用することで、不要な台数を立てることなく自動スケールが可能になります。

2.立ててみる

今回は新規にスケールセットを立てます。
Azureポータル左上の「新規」から「Compute」→「Virtual machine scale set」を選択し、作成します。

基本設定を行います。
スケールセットの名前、OS、ユーザー名、認証方法等を入力します。


続いてスケールセットの設定を行います。
パブリックIPやドメイン名、OSイメージの選択や初期稼働台数、サイズを指定します。

Linuxの場合、OSイメージは下記が用意されています。

続いて自動スケールの設定をします。
最小・最大台数や、増減の条件、一度に増減させる台数を指定できます。


最後に設定を確認し、OKをクリックします。

作成が完了すると、スケールセットの他にロードバランサやストレージアカウントが用意されます。


スケールセットの管理画面はほぼ通常の仮想マシン管理画面と変わりませんが、インスタンス台数やジョブの確認ができるようになっています。


インスタンスに接続するにあたっては、ロードバランサの「受信NAT規則」から確認ができます。
複数台稼働していてもIPアドレスは変わらず、接続するポート番号でインスタンス接続が区別されます。基本は50000番ポートから連番となります。

3.自動スケールさせてみる

インスタンスに負荷を発生させて、自動スケールが行われるかを確認します。
今回の自動スケール条件は下記となっています。
・5分間平均CPU使用率75%以上で1台増加
・5分間平均CPU使用率25%以下で1台減少
・最小台数1台
・最大台数3台

インスタンスにログインし、下記コマンドで負荷を発生させます。

[crayon-5f2c9d3904d81886813189/]

下のメトリックのように15分ほどCPU使用率100%を記録していたようです。


その間、インスタンスは自動スケールで最大台数の3台にまで増えていました。


先述の通り、複数台稼働している際の接続ポートは50000番から連番となっているようです。


いかがでしたでしょうか。

今回は試しにスケールセットを操作してみましたが、次回からはより実用的にスケールセットの検証をしてみたいと思います。

お楽しみに!


Log Analyticsを使ってアラートをつける 

前回、Log Analyticsを使って仮想マシンのディスク空き容量をグラフ化したので、今回は仮想マシンのディスク空き容量に対するアラートを作成してみます。

前回の記事はこちら
Log Analyticsを使って仮想マシンのディスク空き容量をグラフ化する

1.Log Analyticsのアラート

Log Analyticsでは、収集したメトリクスやログに対して閾値を定め、一定回数超過するとメールを流すように設定することが可能です。

アラートの作成はログ検索後に行う為、前回の記事を参考にディスクの空き容量のログ検索を行います。

まずはOMSポータルを開き、「ログ検索」のアイコンをクリックします。

検索欄に「Type=Perf CounterName="% Free Space"」と入力し検索をします。


検索結果が表示されたら、画面左上の「アラート」アイコンをクリックします。

すると設定画面が表示されます。


設定画面は「全般」「スケジュール」「アクション」の3つに分かれています。

2.全般

まず「全般」ではアラートの基本的な情報を入力していきます。
特に重要なのが「検索クエリ」と「時間枠」です。

「検索クエリ」ではログを検索する為に使ったクエリをそのまま記載できる他、必要に応じて変更することができます。
今回は少し詳細なメトリクスを取りたいので、下記のようなクエリを設定します。
「Type=Perf CounterPath="\\\\metric\\LogicalDisk(C:)\\% Free Space “CounterValue<70」 内容は対象の仮想マシンのCディスク空き容量が70%未満になっているレコードを取得するというものです。 「時間枠」ではレコードの集計時間の範囲を指定します。 例えば集計時間を5分とすると、検索クエリが実行された時間から5分前までの間で該当するレコードを集計します。

3.スケジュール

続いて「スケジュール」ではアラートの詳細設定を行います。

「アラートの頻度」では検索クエリの実行頻度を指定します。図のように5分と設定した場合、5分おきにクエリを実行します。なお、「時間枠」の値以下にする必要があります。

「アラートを生成する基準」では「結果の数」と「メートル法の測定単位」から基準を選択します。
※なお、「メートル法の測定単位」は2017年1月現在Public Previewとなっており、項目名が変更になるものと思われます。

「結果の数」では、先述の「時間枠」「アラートの頻度」に基づくレコード数の閾値を設定することができます。
例えば、先述の検索クエリで問題となるレコードが1個でもあったらアラートを発令するよう設定したい場合は、「結果の数」を「次の値より大きい」「0」と設定します。

一方、「メートル法の測定単位」では「結果の数」の時とは異なり、レコード数の閾値とは別に、水準を設けることができます。

先述の検索クエリではディスクの空き容量が70%を切ったらレコードとして集計されますが、例えば、その上で40%を切ったレコードの数もしくは連続した回数に応じてアラートをかけるというようなことができます。(下図参照)


その他、オプションとして「アラートを表示しない」にチェックを入れると、一度アラートが発令された後の待機時間を設定することができます。

4.アクション

最後に「アクション」で通知の設定を行います。
電子メール、Webhook(SNS等への通知)、Runbook(自動対応のトリガー)での通知が可能です。


設定が終わり、画面右下の「保存」をクリックするとアラートの設定が完了します。


作成したアラートは「Settings」→「Alarts」から確認ができます。

5.実際にアラートを発令させてみる

ではアラートを設定した状態で、対象の仮想マシンのCドライブ容量を圧迫してみます。

メトリック上でCドライブの空き容量が減っていることが確認できます。


すると、同時に閾値70%を下回るレコードが集計されたのでアラート通知メールが送付されました。

いかがでしたでしょうか。

今回はディスクの空き容量のアラートを設定しましたが、前回の記事と合わせてAzureで稼働する仮想マシンのリソース監視が可能になりますので、是非ご利用ください。

次回もお楽しみに!


Log Analyticsを使って仮想マシンのディスク空き容量をグラフ化する 

今回は、Log Analyticsを使って仮想マシンのディスク空き容量をグラフ化してみます。

1.Log Analyticsの概要

Log Analyticsは、OMS(Operations Management Suite)というオンプレミス及びAzureにまたがるハイブリッド環境の管理を行うサービス群の一つです。
仮想マシンやストレージからログやパフォーマンスデータを収集・グラフ化することができます。

元々Azureポータル上では診断機能やメトリック監視ができるのですが、仮想マシン内で稼働するサービスのログやディスクの空き容量を監視するにはサードパーティ製品かLog Analyticsを利用する必要があります。

2.留意点

後ほどOMSポータルの操作をしますが、Google Chromeでは画面が真っ白になるケースがあります。
その場合はIEかFireFoxで操作をしてみてください。

3.セットアップ

Azureポータル左メニューの「新規」から「Monitoring + Management」→「ログ分析(OMS)」の順に開きます。

まずはワークスペースを作成しますので、ワークスペース名・サブスクリプション・リソースグループ・場所・価格レベルを設定します。
※「場所」は現在、米国東部・ヨーロッパ西部・東南アジア・オーストラリア南東部の四か所から選ぶことになります。


なお、価格レベルと仕様については下の図の通りとなっております。
今回はFreeを指定します。


作成しましたら、Log Analyticsのページを開きます。


続いて、ログを取得したいリソースを指定します。
管理画面左メニューの「仮想マシン」をクリックします。


対象の仮想マシン名をクリックします。


未接続になっていますので「接続」をクリックします。
※このタイミングで該当の仮想マシンにLog Analytics用のエージェントがインストールされます。


接続状態になったことを確認したら「OMSポータル」を開いてみます。

OMSポータルではLog Analyticsの他にもSite RecoveryやAutomationの管理ができます。
今回は「Settings」をクリックします。


ディスクの空き容量を取得するWindowsパフォーマンスカウンターを利用します。
「Data」→「Windowsパフォーマンスカウンター」の順にクリックします。


今回利用するのは「LogicalDisk(*)\% Free Space」ですので、それにチェックが入っていることを確認し「選択したパフォーマンスカウンターを追加する」をクリックします。


追加されたことを確認したら、画面左上の「Save」をクリックします。


セットアップは以上です。

4.メトリクスを確認する

OMSポータルのトップ画面に戻り「ログ検索」をクリックします。
※「Solutions」→「Log Search」の順にクリックしても同様の画面に遷移します。

ログ検索画面の検索欄にクエリを入力することでログの確認ができます。


今回検索するのは「パフォーマンスカウンター」の「Free Space」となりますので、下記のクエリを入力します。

[crayon-5f2c9d3905d4c266964107/]

その他パフォーマンスカウンター系レコードのログ検索については下記公式ページをご参照ください。
こちら

該当のログがリストアップされたら、「メトリック」をクリックします。
※なお、この時点で検索に出てこない場合は、仮想マシンの再起動をすると表示される場合があります。

画面右の[+]をクリックします。

まだ起動させたばかりですのでデータが少ないですが、ディスク及びドライブの空き容量がグラフ化できました。

次回はこのCドライブの空き容量にアラートを設定する手順をご紹介します。

お楽しみに!


Azure Virtual Networkの東日本と西日本を繋ぐ

今回はAzure Virtual Networkの東日本環境と西日本環境を繋げて、内部IPでの通信を行う手順を紹介します。

1.前準備

東日本リージョンと西日本リージョンのそれぞれにVirtual NetworkとVirtual Machineを準備します。
今回はテストなので簡易的な環境を用意しています。

・東日本リージョン
Virtual Network : japaneast (IP:100.2.0.0/16)
Subnet : default (IP:100.2.0.0/24)
Virtual Machine : easttest (IP:100.2.0.4)

・西日本リージョン
Virtual Network : japanwest (IP: 100.3.0.0/16)
Subnet : default (IP:100.3.0.0/24)
Virtual Machine : westtest (IP:100.3.0.4)

構成図にすると下図のようになります。

最終的には下図のような構成を作成します。

2.Virtual Network Gatewayを作成する

双方のVirtual NetworkにVirtual Network Gatewayを作成していきます。
まずは東日本リージョン側を例にして作成していきます。

Azure Portalの左ペインから「仮想ネットワーク ゲートウェイ」を選択します。

「追加」をクリックします。

下記項目を入力・指定していきます。

・名前
Virtual Network Gatewayの管理上の名前を入力します。

・ゲートウェイの種類
今回はVPNを選択します。

・VPNの種類
ルートベースを選択する必要があります。

・SKU
今回はテストですので「Basic」を選択します。

・仮想ネットワーク
紐づけるVirtual Networkを指定します。

・パブリックIPアドレス
Virtual Network GatewayにはパブリックIPアドレスを割り当てる必要がある為、ここで指定します。新規に作成することも可能です。

その他、サブスクリプション・リソースグループ・場所を指定し、「作成」をクリックします。

同様に西日本リージョン側のVirtual Network Gatewayも作成します。

3.Virtual Network Gatewayを繋げる

次に双方の環境のVirtual Network Gatewayを繋げていきます。
作成したVirtual Network Gatewayの管理画面を開き、「接続」をクリックします。

※東日本側と西日本側のどちらから始めても問題ありませんが、双方とも実施する必要があります。

「追加」をクリックします。

下記項目を入力・指定していきます。

・名前
接続設定の管理上の名前です。

・接続の種類
「vnet 対 vnet」を選択します。

・仮想ネットワークゲートウェイ
「最初の仮想ネットワークゲートウェイ」が接続元、「2番目の仮想ネットワークゲートウェイ」が接続先となります。

・共有キー(PSK)
接続の暗号化を確立するために使用するキーフレーズです。中身はアルファベット・数字を自由に組み合わせて問題ありません。
後ほど反対側の接続設定を作成する時に同じキーフレーズを入力します。

その他、サブスクリプション・リソースグループ・場所を指定し、「OK」をクリックします。

続いて、もう一方のVirtual Network Gatewayの管理画面を開きます。
先ほど作成した接続設定があることを確認しましたら、「追加」をクリックします。

先ほどと同様に接続設定を入力していきます。

双方の接続設定を作成し、管理画面で状態が「Succeeded」になったら設定完了です。

4.通信確認

片方のVirtual Machineから、もう一方のVirtual Machineの内部IPに対し通信を試みます。

※なお、デフォルトではpingは通らないのでPsPingを使っています。
PsPingのダウンロードはこちらから

東日本→西日本ではこちら。

[crayon-5f2c9d390683a467933887/]

西日本→東日本でも同様に通信できています。

[crayon-5f2c9d390684d177700877/]

今回の操作は以上となります。
東日本環境と西日本環境の連携を行う用途の他にも、Azure内でDR環境を作成する時などに参考になれば幸いです。

次回もお楽しみに!


Azure DNSが正式公開されました

先日Azure DNSがプレビューを終了し、正式にサービスとして公開されました。
そこで今回は、過去に紹介した記事と合わせて、Azure DNSの使い方や料金、留意点についてご紹介していきます。

1.Azure DNSとは?

Azureプラットフォーム上で利用できるドメインネームサービス(DNS)です。
例えば「○○○.com」というようなドメインを「123.45.67.89」というようなIPアドレスに紐づける為に利用します。

サポートされているDNSレコードタイプは下記の通りとなっており、一般的なレコードタイプは一通り利用できます。

・Aレコード
・AAAAレコード
・CNAMEレコード
・MXレコード
・NSレコード
・PTRレコード
・SOAレコード
・SRVレコード
・TXTレコード(SPFレコードはTXTレコードとして利用可能です)

また、Azure DNSのSLA(稼働率保証)は99.99%となっており、世界中に展開されているネットワークによる堅牢性と可用性を持っています。

2.操作手順

正式公開後にも操作をしてみましたが、過去にご紹介した記事とそれほど差異が無かった為、改めてご紹介致します。

AZURE DNS編~新ポータルでDNSを設定する~
こちら

AZURE DNS編~新ポータルでDNSを移管する~
こちら

3.料金

Azure DNSを利用する際にかかる料金は、ドメインを管理する「DNSゾーン」の個数と受信した「DNSクエリ」の数に
基づきます。

DNSゾーン1つ当たり(25個まで)…\51/月
DNSゾーン1つ当たり(26個目から)…\10.20/月
DNSクエリ100万件当たり(10億件まで)…\40.80
DNSクエリ100万件当たり(10億超から)…\20.40

※ゾーン当たりの料金は一か月に満たない場合、日割り計算されます。
※上記価格は11/1からの正式請求価格となります。それまでの期間はプレビュー料金(50%OFF)となります。

4.その他留意点

・Azure DNSでドメイン名自体を購入することは現在できない為、他社サービスでドメインを準備する必要があります。
・Azure DNSでは逆引きのサービスは提供されていない為、Azureの仮想マシンに対して逆引きしたい場合は下記方法で
実施する必要があります。

仮想マシンに逆引き設定をしてみた
こちら

今回の内容は以上となります。

AzureのDNSサービスが正式公開されたことで、システムの全てをクラウドに移行していく「クラウドファースト」の実現がより近づいたのではないでしょうか。
今後も更なるサービスの追加・拡充に期待したいですね。

次回もお楽しみに!


Azure Media Servicesを触ってみる②~動画エンコード編~

今回はAzure Media Servicesの動画エンコード機能を操作していきます。
前回の記事はこちらをご覧ください。

前回の記事はこちら

1.Azure Media Servicesでできるエンコード

Azure Media Servicesでは配信対象となるデバイスに合わせて、H.264やMPEG-1等様々な形式のエンコードが可能となっております。

エンコード形式の一覧は下記公式ページをご覧ください。

公式ページはこちら

2.エンコードの実施

まずはアップロード済みの動画の詳細画面を開き、「エンコード」を選択します。

資産のエンコードの画面では下記の項目を設定します。

・メディアエンコーダー名

エンコーダーの性能を「standard」「premium workflow」のいずれかから選択します。
「standard」ではAzure側で用意されているエンコード方法を指定するのに対し、「premium workflow」では工程設定をカスタマイズしたワークフローファイルをアップロードします。

今回は「standard」を選択します。

・エンコードプリセット

エンコーダー名で「standard」を選択した時に、Azure側で用意されているエンコード方法を指定します。
「Standard」では「H264」の形式にのみ圧縮ができます。
大きく「Single Bitrate」「Multiple Bitrate」に分かれており、解像度を選択できます。

今回は「H264 Multiple Bitrate 1080p」を選択します。

その他、ジョブ名と出力メディア資産名を入力し、「作成」をクリックします。

通知がされたら、ジョブをクリックします。

ジョブの進行度合いを確認できます。

ジョブが完了すると「資産」の画面にエンコード後の動画が表示されます。

エンコード後の動画をクリックするとmp4ファイルの他にmanifestファイルが作成されていることが確認できます。

なお、エンコード実施後の動画は公開時にロケーターを
「プログレッシブ」と「ストリーミング中(アダプティブストリーミング:最適化配信)」から選ぶことができます。
「ストリーミング中」を選んだ場合はストリーミングユニットの追加が必要です。

今回の操作は以上となります。
Azureの環境を使えば動画のエンコードも簡単にできるので、是非ご利用ください。

次回もお楽しみに!

※前回に引き続き、使用させて頂いたサンプル動画は下記となります。
動画サイトはこちら
Discovery part Ⅱ - Jonathan Mitchell 
ライセンス:CC BY 3.0


Azure Media Servicesを触ってみる①~動画公開編~

今回はAzure Media Servicesの立ち上げからサンプル動画の配信までを操作していきます。

1.Azure Media Servicesとは

クラウド環境を利用してブロードキャスト品質のビデオストリーミング配信を行うことができるサービスです。
モバイルデバイス向け大規模配信を念頭に置いた設計となっており、
多種のデバイスサポート、動画のエンコードが可能となっております。

2.サービスの立ち上げ

まずはAzureダッシュボードの左ペインから「作成」「メディア+CDN」「Media Services」の順に選択します。


サービスの初期設定を行います。
アカウント名を入力し、サブスクリプション・リソースグループ・場所・ストレージアカウントを選択したら「作成」を
クリックします。

サービスの立ち上げは以上です。

3.動画のアップロード

サービスが立ち上がったら、メニューから「アセット」をクリックします。

アセットの画面ではアップロード・エンコードされた動画を管理することができます。

「アップロード」をクリックします。

「ファイルのアップロード」で配信したい動画をローカルから参照しアップロードします。

アセットの画面でアップロードが終わった動画をクリックすると動画の詳細設定画面が表示されます。
この画面から字幕のアップロードやエンコードをすることが可能です。
今回はそのまま「公開」をクリックします。

この画面ではロケーター(ファイルにアクセスするためのエントリポイント)と配信時間の設定ができます。
今回はエンコードをしていない為、ファイルのプログレッシブダウンロードのみとなります。

公開設定が完了したら、配信ができるようになります。
また、「再生」をクリックすると管理画面上で動画の参照確認ができます。


今回の操作は以上となります。
クラウド環境の豊富なストレージ容量とエントリポイントを利用して簡単に動画配信ができました。

次回は動画のエンコードについて紹介いたします。

お楽しみに!

※今回使用させて頂いたサンプル動画は下記となります。
動画サイトはこちら
http://mazwai.com/
Discovery part Ⅱ - Jonathan Mitchell 
ライセンス:CC BY 3.0


Azure Data Factoryの監視・管理ポータルを触ってみる 

今回はAzure Data Factoryの監視・管理ポータルを操作していきます。
作成手順については下記をご覧ください。

Azure Data Factoryを試してみる
作業手順のページはこちら

1.監視・管理ポータルでできること

従来のData Factory管理画面では、ダイアグラムビューからパイプラインの構成や稼働ステータスを見ることはできても、
各パイプラインの停止・起動等は別画面から操作する必要がありました。

一方、2016年9月現在でプレビュー段階となっていますが、新しくData Factoryの監視・管理ポータルが用意されており、
そちらでは各パイプラインの操作も一括でできるようです。

2.新ポータルを見てみる

まずはData Factoryの管理画面から「監視と管理(プレビュー)」のアイコンをクリックします。

ブラウザの新しいタブが開き、監視・管理ポータルが表示されます。

画面左のエリアでは、Data Factoryで使用しているリソースが表示されています。

パイプラインとデータセット、関連するサービスがリソースとして使われているようです。

画面左エリアの左アイコンから眼鏡のアイコンをクリックするとモニタリングができます。
パイプラインをスケジュール指定で稼働させた場合等に確認ができます。

時計のアイコンではアラートの設定ができるようです。

続いて画面中央を見ると、先ほどのダイアグラムビューに似たエリアとステータスが表示されています。

この画面で直接パイプラインの稼働・一時停止・停止を行うことができ、パイプライン上のバーで稼働状況を確認できます。

パイプラインを右クリックすることで、そのパイプラインをピックアップできます。

スケジュール稼働の履歴や予定もこの画面で確認できるようです。

最後に、画面右のエリアを見てみます。

最初に表示されているのはアクティビティウィンドウのステータス画面となります。

歯車のアイコンではプロパティが表示されます。

紙のアイコンではスクリプトが表示されます。

以上が、監視・管理ポータルで確認できるコンポーネントになります。

今回利用していたのがサンプルのパイプラインだったので、アクティビティウィンドウ等の動作を確認することが
できませんでしたが、実運用でバッチ稼働させた時等には便利さを実感できると思います。

次回の記事もお楽しみに!


Azure Data Factoryを試してみる 

今回はAzure Data Factoryを試しに操作していきます。
概要については下記記事をご覧ください。

AZURE DATA FACTORY について
リンクサイトはこちら

1. 事前準備

Data Factoryを操作するにあたって、今回はAzure SQL Database , Azure Storage accountを準備します。
Azure SQL Databaseの作成方法は下記記事をご覧ください。

5分で立てるSQL Database
リンクサイトはこちら

2. 初期設定

まずはポータルの「新規」から「Data Factory」を選択します。

Data Factoryの名前、サブスクリプション、リソースグループ、場所を選択します。
※2016年8月現在、選べる場所はヨーロッパ北部・米国東部・米国西部の三つです。

デプロイが終了すれば初期設定は完了です。

3. サンプルパイプラインの設定

今回はどういった用途に使えるかを理解するために、「サンプルパイプライン」を作ってみます。
管理画面から「サンプルパイプライン」のパネルをクリックします。

今回は「顧客プロファイリング」を選択します。

サンプルの説明と共に、データをやり取りする為のAzure Storage Account , Azure SQL Databaseの指定を行います。
情報を入力後「SQL接続のテスト」をクリックして接続ができることを確認してください。

サンプルパイプラインが作成されると管理画面のコンテンツに作られたものが表示されます。

ダイアグラムからパイプラインの構図を確認できます。

このサンプルでは3つのパイプラインがあります。
① BLOBストレージにあるテーブルを時系列に基づくパーティションに分割しています。
② パーティションと地理情報を結合させています。
③ 結合させた情報と広告データを合わせて処理して、マーケティングの成果データをSQL databaseに出力しています。

以上が、サンプルで行われているData Factoryの内容となります。
上記では顧客プロファイリングの用途でデータの加工・結合・移動を行いましたが、様々な用途でのETLフローを管理することがすることができるので、データ分析には欠かせないサービスとなっています。

次回の記事もお楽しみに!