Delta Lake - Open Source Reliability for Data Lakes について翻訳し、まとめてみた

はじめに

今回は、Michael Armbrust 氏による「Data Reliability for Data Lakes」の動画を翻訳し、まとめてみました。
本動画については、下記リンク先参照でお願いします。

■リンク
・ Delta Lake - Open Source Reliability for Data Lakes

Data Lake について

Data Lake の現状

現在、様々な企業が Apache Spark を用いて、Data Lake にデータを置き、データサイエンスや機械学習のプロジェクトなどに利用してきました。

■Data Lake を利用する3つの理由

  • とても安価に利用可能
  • スケーラブル
  • 置いたデータを様々な用途で利用可能

しかし、Data Lake を利用するにあたって、ある問題が発生しております。それは、Data Lake に置いてあるデータが整理されていない為、プロジェクトの進行が阻まれるという事態です。信頼性の低いデータの存在により、様々なプロジェクトが生まれては失敗で終わるという事態が実際に起きてます。

スクリーンショット 2020-06-18 10.25.29.png

Data Lake を用いたプロジェクトの進め方

図は一般的な Data Lake を用いたプロジェクトの進め方です。
スクリーンショット 2020-06-18 10.40.17.png

■プロジェクトのポイント
①λ-arch を構築
②検証アーキテクチャの構築
③Data Lake の再処理(不純なデータが無いか確認)
④アップデートの実施

実際にプロジェクトを進めていくにあたり重要なポイントは4つですが、図のような構成を組む必要がある為、プロジェクトを順調に進めるのは簡単ではありません。Data Lake において、データの信頼性を維持するのはとても難しく、その理由は3つあります。

スクリーンショット 2020-06-22 15.54.35.png

■複雑な構成になる3つの理由

  • ジョブの失敗
    • 破損したままのデータの放置は復旧に多くの時間が必要
  • 品質の低下
    • 矛盾した不整合データの生成
  • トランザクション不足
    • アペンドや読み込み、バッチやストリーミングの実行がほぼ不可能

Delta Lake について

Delta Lake を用いたプロジェクトの進め方

それでは、Delta Lake を用いた場合はどうなるでしょうか。
Delta Lake を用いた場合は、Data Lake の時の構成とはだいぶ異なり、プロジェクトの進め方は図の様になります。
スクリーンショット 2020-06-18 11.05.51.png

Delta Lake の一番の特徴は、データを利用するまでデータの品質を向上させることが可能という点です。
それを可能にしているのが、Delta Lake の下記の3つの特徴です。

  • フル ACID トランザクション
  • オープンソース
  • Apache Spark を利用

Delta Lake の場合、図のように「Bronze」、「Silver」、「Gold」といった3つの段階を踏んでおります。
それぞれの段階における内容についてまとめました。

  • Bronze
    • 生データの摂取と、最小限の構文解析
    • 数年にわたる長期保存が可能
  • Silver
    • データのフィルタリングやクレンジング、強化などを適用した中間データ
    • 簡単にデバッギングできるようクエリが可能
  • Gold
    • 実行可能な綺麗なデータ(BI や ML での利用も可能な状態)
    • Spark や Presto で利用可能な状態のデータ

スクリーンショット 2020-06-23 10.21.03.png
また、Delta Lake は Bronze に生データを置いている為、ビジネスロジックの変更などで計算し直す必要が出た場合は Silver と Gold を削除し、再び Bronze から始めるだけなので、とても簡単に実行できます。

おわりに

「Data Reliability for Data Lakes」の翻訳は以上です。
Delta Lake の流れや仕組みについて詳しく記載されており、とても役立つ動画です。本編では、より詳細な内容について話されているので、ぜひ御覧ください。

 

 

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


Delta Lake について翻訳し、まとめてみた

はじめに

Delta Lake について、下記のリンク先の記事と動画を参考に、内容を翻訳してまとめてみました。
本記事にはより詳細な内容が記載されているので、そちらも参照してください。

■リンク

Delta Lake について

Delta Lake とは

Delta Lake はデータレイクに信頼性をもたらすオープンソースのストラテジレイヤです。
Delta Lake を利用するメリットとしては、3つ挙げられます。
image.png

Delta Lake の特徴

Delta Lake には、ユーザが快適に利用できるよう10の機能があります。
■Delta Lake の10の機能

  • ACID トランザクション
    • ACID トランザクションをデータレイクに提供
    • 最強の分離レベルであるシリアライザビリティを提供
  • スケーラブルなメタデータのハンドリング
    • Spark の分散プロセス力を利用して、数十億のファイルを持つペタバイト規模のテーブルの全てのメタデータを簡単に処理可能
  • タイムトラベル(データのバージョニング)
    • ロールバックや監査証跡の全履歴、そして再現可能な機械学習実験などがデータのバージョニングで可能
  • オープンフォーマット
    • Delta Lake の全データを ApacheParquet 形式で保存
    • Parquet にとってネイティブな効率的な圧縮とエンコーディングスキームを提供
  • 統一されたバッチとストリーミングのソースとシンク
    • Delta Lake のテーブルはバッチテーブルでもあると同時に、ストリーミングソースやシンクでもある
    • ストリーミングデータの読み込み、バッチ履歴の埋戻し、対話型クエリをそのまま使用可能
  • スキーマの実施
    • Delta Lake はスキーマを指定して実行する機能を提供
    • 不良データによるデータ破損を回避し、正しいデータタイプとカラムの存在を確認することが可能
  • スキーマの進化
    • Delta Lake デーブルスキーマに変更を加え、自動的に適用される
    • DDLといった面倒は不要
  • 監査履歴
    • Delta Lake のトランザクションログは、データに関するあらゆる変更履歴を記録
    • 完全な監査証跡も提供
  • アップデートと削除
    • データセットのマージ・更新・削除する Scala/Java API のサポート
    • GDPR と CCPA に簡単に準拠でき、変更データキャプチャなどのユースケースも簡素化可能
  • Apache Spark API との 100% の互換性
    • 大規模データ処理エンジンとして利用される Spark と完全互換性
    • Delta Lake を最小限の変更で既存のデータパイプラインと利用が可能

Data Lake と Delta Lake の違い

下記は、Data Lake と Delta Lake の違いを図に表したものです。
image.png

  • 信頼性
    • Delta Lake:高(スキーマの ACID 操作を強化することでデータの信頼性を高める)
    • Data Lake:低(あらゆるデータを許可し、結合も遅いため、大量の孤立したデータが生まれる)
  • 統一性
    • Delta Lake:高(バッチやストリームデータを同一のパイプラインで生成可能)
    • Data Lake:低(ストリーミングプロセスにはホットパイプランが必須)
  • パフォーマンス
    • Delta Lake:高(Zオーダスキッピングファイルで効率的な読み取り)
    • Data Lake:中(シーケンス読み取り)
  • 使いやすさ
    • Delta Lake:中(DBA オペレーションを求められる)
    • Data Lake:高(スキーマへの記述も不要で、どのようなデータも許可)

信頼性、統一性、パフォーマンス、使いやすさ、の4項目でそれぞれ比較した結果、Delta Lake の方がData Lake に比べてより優れているのがわかります。

おわりに

Delta Lake に関する説明は以上となります。
より詳細な内容については、リンク先の記事等を参照ください。

 

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


MLflow についてまとめて翻訳してみた

はじめに

MLflow について、下記のリンク先の動画と記事を元に内容をまとめて翻訳しました。

■本動画リンク
MLflow: Infrastructure for a Complete Machine Learning Life Cycle with Mani Parkhe & Tomas Nykod

■本記事リンク
Introducing MLflow: an Open Source Machine Learning Platform

MLflow - 完璧な機械学習(ML)ライフサイクルのためのインフラ

ML 開発の困難さ

図は一般的な ML のライフサイクルとなります。基本的には取得したデータをチェックした後にトレーニングし、デプロイした後で、新たにデータを取り込ませたりすることで改善させる、といった形になります。
image.png
ML の開発が困難な理由としては、以下が挙げられます。

  • どのライフサイクルにおいても利用できるツールが豊富にある
  • それぞれのライフサイクルで使用するツールが必ずしも同じでは無い
  • 次のライフサイクルにデータやモデル、コードを渡すのに苦労する

MLflow について

MLflow は、そんな ML 開発における問題点を解決するオープンソースの ML プラットフォームです。
image.png
主な特徴は以下となります。

  • どの ML ライブラリや言語にも対応
  • どの環境でも同じ様に実行可能
  • 1人、または複数人の場合でも利用できるデザイン設計
  • ビッグデータや Apache Spark に対応可能

MLflow デザインの哲学

MLflow のデザイン哲学は2つあります。

■デザイン哲学

  • 「API ファースト」のオープンプラットフォーム
    • どんなライブラリや言語、でも実行可能な環境
    • 既存の ML プラットフォームやワークフロとの統合が可能
  • モジュール設計
    • 個々人で異なるコンポーネントの利用が可能
    • ML ツールデベロッパが多くのユーザと簡単に繋がることが可能

MLflow コンポーネント

MLflow の主なコンポーネントは3つあります。
image.png
■コンポーネント

  • MLflow Tracking
    • 実験の記録やクエリを行う
  • MLflow Projects
    • どのプラットフォームでも再利用可能なフォーマットにパッケージング
  • MLflow Models
    • 様々なデプロイツールをサポートするモデルフォーマット

MLflow Tracking

image.png
MLflow Tracking は 機械学習コードを実行して視覚化した際、パラメータやコードのバージョン、そしてメトリクスなどのロギングや、ファイルのアウトプットをするための API と UI です。

■MLflow Tracking の特徴

  • 簡単なコード数行で、パラメータやメトリクスなどのトラッキングが可能
  • notebook やスタンドアローンなスクリプトなど、どの環境でも利用可能
  • ローカル環境のファイルやサーバにログの結果を保存し、複数の実行の比較が可能

MLflow Projects

image.png
MLflow Projects は再利用可能なデータサイエンスコードをパッケージングするためのスタンダードなフォーマットを提供するサービスです。

■MLflow Projects の特徴

  • Porject はそれぞれコードや Git リポジトリがついたディレクトリ
  • 記述ファイルを使って依存関係とコードの実行方法を特定

MLflow Models

image.png
MLflow Models は “flavors” と呼ばれる 複数のモデルで ML モデルをパッケージングする方法です。MLFlow は、異なる flavor のモデルをユーザが開発できるよう、様々なツールを提供します。MLflow モデルは、任意のファイルを含んだディレクトリと使用可能な flavors をリストする MLmodel 記述ファイルとに保存されます。

  • MLflow Models の例
[crayon-5f2c25c9c7768974145980/]

上記のモデルを例にすると、このモデルは sklearn モデル flavor か python_function モデル flavor をサポートするツールと使用することができます。
MLflow は、一般的なモデルを様々なプラットフォームに開発するためのツールを提供します。例えば、python_function flavor をサポートするモデルを Docker ベースの REST サーバや Azure ML、Amazonn SageMaker、そしてバッチとストリーミング推論のための Apache Spark のユーザ定義関数としてデプロイすることができます。
MLflow Models をトラッキング API を使用してアーティファクトとして出力すると、MLflow はどのプロジェクトで実行したのかを自動的に記録します。

おわりに

MLflow についてのまとめは以上となります。
本編では、より詳し解説やデモなども紹介されているので、本編もぜひ確認ください。

 

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


Detecting Financial Fraud at Scale with Decision Trees and MLflow on Databricks 翻訳まとめ

はじめに

今回は、2019年5月2日に Elena Boiarskaia 氏、 Navin Albert 氏、そして Denny Lee 氏によって投稿された「Detecting Financial Fraud at Scale with Decision Trees and MLflow on Databricks」 の翻訳をまとめたものを紹介します。
本記事のリンクは下記参照で。

■リンク
Detecting Financial Fraud at Scale with Decision Trees and MLflow on Databricks

Databricks 上で決定木と MLflow を用いた大規模な金融詐欺の検出

人工知能(AI) を使った大規模な不正パターンの検出はとても難しく、その理由は3つあります。

■3つの理由

  • ふるいにかける履歴データの多さ
  • 機械学習の発達とディープラーニングの技術の複雑さ
  • 実際に起きた不正行為(動作)の例が少ない

更に、金融業界においてはセキュリティに対する懸念と AI を用いた不正行為の判別方法に対する説明が重要で、これが不正パターン検出に向けた作業をより難しくしてます。

image.png

ドメインのエキスパートチームは、検出パターン構築のために詐欺師の一般的な行動をベースとしたルールを用意することとしました。ワークフローには、金融詐欺の分野におけるエキスパートがまとめた特定の動作の要件が含まれています。
データサイエンティストは利用可能なデータのサブサンプルを取得し、これらの要件や既存の詐欺の例を用いて、ディープラーニングや機械学習のアルゴリズムのセットを選択します。
検出パターンを本番で利用するにあたり、データエンジニアは主に SQL を用いてモデルを閾値を持つルールセットへと変換します。結果、金融機関は一般データ保護規則(GDPR)に準拠した、不正取引の特定につながる明確な証拠を提示することができますが、ハードコード化されたルールセットを用いた不正検知システムにも問題点はありました。

■問題点

  • 不正パターンの変化に対するアップデートにとても時間がかかる
  • 現在の市場で起きている不正行為の変化に即座に対応できない

image.png

それに加えて、上述したワークフローのシステムはサイロ化されていることが多く、図のようにドメインエキスパート、データサイエンティスト、データエンジニアがすべて区画化されています。
データエンジニアは、大量のデータを管理し、ドメインエキスパートやデータサイエンティストの作業を本番レベルのコードに変換する役割を担っています。
共有のプラットフォームが無いため、ドメインのエキスパートとデータサイエンティストは、解析の為に1台のマシンに収まるサンプリングされたデータに頼るしかありません。これによってコミュニケーションが困難になるだけでなく、最終的には連携にも支障をきたします。

image.png

この記事では、以下の内容について紹介していきます。

  • Databricks のプラットフォーム上の機械学習のユースケースに、様々なルールに基づいた検知のユースケースを変換する方法
  • 大規模なデータセットからモジュール機能を構築するフレームワークを活用し、機械学習による不正検知データパイプラインを作成とリアルタイムでデータを可視化する方法
  • 決定木と Apache Spark MLlib を用いた不正の検出方法と、モデルの精度向上のために MLflow を用いた反復処理と改良方法

機械学習を用いた解決

金融業界において、機械学習モデルは特定した不正ケースを正当化する方法が無い「ブラックボックス」な解決策を提供するものと考えられてきたため、機械学習モデルに対して消極的です。
GDPR の要件と金融規制により、データサイエンスの力を活用することは一見不可能に見えますが、大規模な不正行為の検出に機械学習を適用したことで、上述した多くの問題を解決できることを様々な成功事例が証明しています。

image.png

実際に確認された詐欺行為の事例が少ないため、金融詐欺の検出の為に、教師あり機械学習モデルをトレーニングするのは非常に困難です。しかし、特定の不正行為を識別する既存のルールセットの存在は、合成ラベルのセットと特徴量の初期セットの作成の手助けになります。
ドメイン分野のエキスパートによって開発された検出パターンの出力は、適切な承認プロセスを経て本番利用に使われる可能性があります。期待される不正行為フラグを生成するため、機械学習モデルをトレーニングするためのスタート地点として利用されることで、下記の3つの不安要素を解決できます。

■3つの不安要素

  • トレーニングラベルの欠如
  • 使用するモデルの選定
  • モデルに適切なベンチマークを有しているかどうか

ルールに基づく不正行為フラグを認識するよう機械学習モデルをトレーニングすると、混同行列を介して期待される出力との直接比較ができます。結果がルールベースの検出パターンと厳密に一致している場合、このアプローチは機械学習ベースの不正防止に懐疑的な方々の信頼を得るのに役立ちます。
このモデルの出力は解釈がとても簡単で、元の検出パターンと比較した場合に予想される偽陰性、および偽陰性のベースラインの議論として役立つと思われます。
さらに、機械学習モデルの解釈が難しいという懸念については、初期の機械学習モデルとして決定木モデルが利用されれば、より緩和されると思われます。

■決定木モデルを利用するメリット

  • モデルは一連のルールに沿ってトレーニングされているため、決定木は他のどの機械学習モデルよりも優れている可能性があるから
  • モデルの最大限の透明性

モデルの透明性は、アルゴリズムに組み込まれた機能を理解することによって最終的に達成されます。解釈可能な機能があると、解釈可能で防御可能なモデル結果が得られます。
機械学習でアプローチすることの最大の利点は、最初のモデリング作業以降はモジュール化されたラベルや特徴量、あるいはモデルタイプセットのアップデートを短い時間でシームレスに生産可能という点です。ドメインエキスパート、データサイエンティスト、データエンジニアが同じデータセットを大規模に処理し、ノートブック環境で直接やりとりができる Databricks 統合分析プラットフォームによって、さらに促進されます。それでは、始めていきましょう。

データの取得と探索

この例では、合成データセットを使用します。
自分でデータセットを読み込む場合は、Kaggle からローカルにデータセットをダウンロードし、Azure 、または AWS にデータをインポートしてください。
以下の表は、PaySim のデータセット情報です。 PaySim のデータは、アフリカ諸国で実施されたモバイルマネーサービスの1ヶ月間の財務ログから抽出した実際の取引のサンプルをもとに、モバイルマネーの取引をシミュレーションしています。

image.png

データの探索

Databricks File System(DBFS)にデータをアップロードしたので、Spark SQL で素早く簡単に DataFrame を作成できます。
image.png

DataFrame を作成したので、スキーマと最初の1000行を見て、データを確認しましょう。
image.png

image.png

トランザクションの種類

データを可視化して、取引の種類と全体の取引量に対する貢献度を見てみましょう。
image.png

金額を把握するために、取引の種類や送金額への貢献度に応じたデータの可視化をします。

image.png

ルールベースのモデル

モデルのトレーニングに、既知の詐欺事件の大規模なデータセットから始めることは滅多に無いです。ほとんどの実用的なアプリケーションでは、不正検知パターンはドメインの専門家によって確立された一連のルールによって識別されます。ここでは、これらのルールに基づいて「label」と呼ばれるカラムを作成します。

image.png

ルールによってフラグ化されたデータの視覚化

これらのルールは、非常に多くの不正ケースにフラグをよく立てます。フラグがついた取引数を可視化します。約4%のケースと、ドル総額の11%が不正行為としてフラグが付いてるのが分かります。

image.png

適切な機械学習モデルの選択

多くの場合、ブラックボックス化されたアプローチを使用してた不正検出は使用されません。

  • ドメインの専門家は取引が不正であると識別された理由を理解できなくてはいけない
  • 行動を起こす場合は、証拠を法廷に提出する必要がある

以上の理由から、決定木は簡単に解釈できるモデルであり、このユースケースの出発点として最適です。詳細については、意思決定ツリーに関するこのブログ 「The Wise Old Tree」 を参照ください。

image.png

トレーニングセットの作成

MLモデルを構築して検証するために、「.randomSplit」を用いて 80/20 の分割を行います。ランダムに選択されたデータの80%がトレーニング用に、残りの20%が結果の検証用に確保されます。

image.png

機械学習モデルのパイプラインの作成

モデルのデータを準備するために「.StringIndexer」を使用してカテゴリ変数を数値に変換します。次に、モデルに使用したい機能を全部組み立てます。決定木モデルに加えて、これらの特徴準備ステップを含むパイプラインを作成し、異なるデータセットでこれらのステップを繰り返すことができるようにします。
最初にパイプラインをトレーニングデータに適合させ、その後にそれを使用してテストデータを変換するので注意してください。

image.png

モデルの可視化

パイプラインの最後のステージである決定木モデルの「display()」を呼び出すことで、各ノードで選択された決定を持つ初期フィットモデルを表示できます。これは、アルゴリズムが結果の予測にどのように到達したかを理解するのに役立ちます。

image.png
image.png

モデルのチューニング

最適なツリーモデルが得られることを確認するために、いくつかのパラメーターのバリエーションを使用してモデルを相互に検証します。データが96%の陰性と4%の陽性のケースで構成されている場合、不均衡な分布の説明に、Precision-Recall(PR)評価指標を使用します。

image.png

モデルのパフォーマンス

モデルを評価するには、トレーニングセットとテストセットの精度再現率(PR)とROC曲線下の面積(AUC)メトリックを比較します。PR と AUC は共に非常に高いようです。

image.png

モデルがどのように結果を誤分類したかを見るために、matplotlib とpandas で混同行列を可視化します。

image.png

クラスの調整

可視化した結果、以下の事がわかりました。

  • モデルが識別した元のルールよりも2421個も多くケースを識別している
  • アルゴリズムによって検出されなかったが、もともと識別された58個のケースがある

アンダーサンプリングを使用してクラスのバランスを取り、予測をより改善してみます。全不正ケースを保持し、不正ではないケースをダウンサンプリングしてその数と一致させ、バランスのとれたデータセットを取得します。
新しいデータセットを視覚化すると、イエスとノーのケースがほぼ 50/50 であることがわかります。

image.png

パイプラインのアップデート

次に、ML pipeline を更新して新しいクロスバリデータを作成します。ML pipeline を使用しているため、新しいデータセットで更新するだけで、同じパイプラインステップをすばやく繰り返すことができます。

image.png

結果の確認

新しい混同行列の結果を見ると、モデルは1つの不正なケースのみを誤認しました。クラスのバランスを取ることで、モデルが改善されたようです。
image.png

モデルのフィードバックと MLflow の利用

生産用のモデルが選択されたら、フィードバックを継続的に収集して、モデルが引き続き対象の動作を識別していることを確認します。ルールベースのラベルから始めているので、人間のフィードバックに基づいて検証された真のラベルを将来のモデルに提供したいと考えています。
この段階は、機械学習プロセスの信頼と信頼を維持するために重要です。アナリストはすべてのケースをレビューすることはできないため、モデルの出力を検証するために、慎重に選択されたケースをアナリストに提示していることを確認します。例えば、モデルの確実性が低い予測は、アナリストが検討するのに適した候補です。このようなフィードバックが加わることで、モデルは変化する景色に合わせて改善・進化を続けていきます。

MLflow は、異なるモデルのバージョンを学習する際に、このサイクルを通じて助けてくれます。様々なモデル構成とパラメータの結果を比較しながら実験を追跡できます。例えば、MLflow UI を使用して、バランスの取れたデータセットと不均衡なデータセットで学習したモデルの PR と AUC を比較することができます。
データサイエンティストは、MLflow を使用して様々なモデルのメトリクスや追加の可視化や成果物を追跡することで、どのモデルを本番環境に導入すべきかの判断に役立てることができます。データエンジニアは、選択したモデルとトレーニングに使用したライブラリのバージョンを.jarファイルとして簡単に取得して、本番の新しいデータに展開することができます。
このように、モデルの結果をレビューするドメインエキスパート、モデルを更新するデータサイエンティスト、本番でモデルを展開するデータエンジニアの連携は、この反復プロセスを通じて強化されていきます。

結論

Databricksプラットフォームを使用する主な利点

  • データサイエンティスト、エンジニア、ビジネスユーザーがプロセス全体でシームレスに連携できること
  • データの準備、モデルの構築、結果の共有、モデルの本番環境への導入を同じプラットフォームで実行できる
  • チーム全体に信頼が構築され、効果的で動的な不正検出プログラムに繋がる

わずか数分で無料の試用版にサインアップしてこの Notebook を試して頂き、独自のモデルを作成してみてください。

おわりに

Detecting Financial Fraud at Scale with Decision Trees and MLflow on Databricks の翻訳まとめは以上です。
本記事にはより詳しく記載がされているのでそちらも参照ください。

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


[WVD ARM ] Application groups・Workspace及びユーザー管理編

はじめに

本記事では WVD ARM の管理操作についてご紹介します。
WVD ARM とは 既存のPower ShellベースのWindows Virtual Desktop(WVD)から、Azure Portal 上で操作可能になった新しい Windows Virtual Desktop です。

便宜上 Power ShellベースのWVDを WVDv1、 WVD ARM を WVDv2と表記します。
なお、Windows Virtual Desktop(WVD)についての解説は割愛しています。
※2020年6月1日時点ではプレビュー状態です。

Application groups

WVDv2 の利用ユーザーに対してアプリケーションの使用権限を付与や管理を行います。

WVDv2 から追加・改善された箇所は以下の2点です。

  • ユーザーが同じホストプール内にある Desktop Application ・RemoteApp 両方に登録可能
    ※WVDv1では同じホストプールに登録不可
  • Azure PortalでのRemoteAppの設定が可能 ※WVDv1ではPower Shellで操作可能
    作成方法は以下のリンクに進み「Step5:RemoteAppの作成」をご参照ください。
    https://www.cloudou.net/windows-virtual-desktop/wvd016/

注意事項
Workspace に Application groups を紐付ける際、Desktop Application ・ RemoteAppは同じWorkspace に紐づける必要があります。

Workspace

利用者側の使用するアプリケーションを接続画面に表示できます。
WVDv1では「WVDテナント」でしたが、 WVDv2では Workspace と名称が変更しています。

作成するタイミング別の作業手順は以下の通りです。

  • ホストプール作成時 ※WVDv1 Power Shellで操作可能
    以下のリンクから「Step3:Host Pool (+Desktop)の作成」を参照
    https://www.cloudou.net/windows-virtual-desktop/wvd016/
  • 個別作成
    Azure Portal > WVD > Workspace > 「+追加」 をクリック > 各項目に必要事項を入力
    image.png

注意事項
利用者側に表示させたい Desktop Application を Workspace に紐づける必要があります。

ユーザー管理

WVDv1 はユーザー管理を Power Shell での操作が必要でしたが、WVDv2 では Azure Portal で以下の操作が可能です。

  • 管理権限の割り当てが可能 ※ WVDv1 では Power Shellから操作可能
  • グループ単位で追加可能 ※ WVDv1 では選択不可

操作手順は以下の通りです。

■ 管理権限の割り当てが可能 ※ WVDv1 ではPower Shell から操作可能
手順: Azure Portal > WVD > Host Pool(他のカテゴリーも選択可) > アクセス制御
image.png

■ グループ単位で追加可能 ※ WVDv1 では選択不可
手順: Azure Portal > WVD > Application groups (他のカテゴリーでも選択可) > Assignments > 「+ 追加」 を選択 > 追加するユーザーまたはグループを選択
image.png

ユーザーの接続状況を確認可能

Azure Portal 上でユーザーの接続状況を確認できます。
以下が接続状況を確認するまでの手順です。

■ ユーザーの接続状況を確認可能 ※WVDv1 ではPower Shellで操作可能
手順: Azure Portal > WVD > Users > 確認するユーザーを選択 > Sessionsを選択
接続中: Active
未接続: Disconnected
image.png

注意事項
ユーザーアカウントが WVD 用の Azure AD に同期している必要があります。

最後に

最後まで読んでいただきありがとうございました。

WVDv1ではユーザー管理やアプリケーショングループ・Workspaceでの作業は Power Shell での操作が必要でした。WVD ARM では Azure Portal で操作可能になり、数クリックで管理やデプロイができ、WVDv1より利便性が向上しています。

この機会にWVD環境構築を試してみてはいかがでしょうか?

Windows Virtual Desktop (WVD)をより詳しく知りたい方

Windows Virtual Desktop (WVD)に関しての情報は以下のリンクをご参照ください
■ Windows Virtual Desktop サービスについて知りたい

■ Windows Virtual Desktop ARM を作成


Koalas: Easy Transition from pandas to Apache Spark 記事翻訳してみた

はじめに

2019年4月に Tony Liu 氏と Tim Hunter 氏によって投稿されました「 Koalas: Easy Transition from pandas to Apache Spark 」の記事を翻訳してまとめてみました。
本記事のリンクと、Reynold Xin 氏が Spark + AI Summit で Koalas の公式アナウンス発表の動画のリンクは下記になります。

■本記事リンク
Koalas: Easy Transition from pandas to Apache Spark

■Koalas の公式アナウンス発表動画リンク
Announcing Koalas Open Source Project | Reynold Xin (Databricks), Brooke Wenig (Databricks)

Koalas とは

本日、Spark + AI サミットにて Koalas という PySpark の データフレーム API を増強させ、pandas と互換性を保たせる新しいオープンソースプロジェクトを発表しました。
Python のデータサイエンスはここ数年間で拡大し、データサイエンティストは pandas を使ってデータセットに取り掛かるようになりました。pandas はデータを解析をするのにとても役立ちます。
実際に、pandas の read_csv は学生がデータサイエンスを始める際の最初のコマンドとしてよく使われてます。
しかき、そんな pandas にも弱点はあります。それは、ビッグデータに向いてないということです。

■pandas の抱える弱点

  • pandas は1台のマシンで対処できる小さなデータセット向けにデザインされているため、ビッグデータには不向き
  • とても大きなデータに取り組む場合は PySpark に移行するか、pandas でも利用できるデータにダウンサンプルする必要がある

しかし、Koalas の登場によりデータサイエンティストは新しいフレームワークを覚えずとも、1台のマシンから分散環境に移行することができます。
下記にあるように、1つのパッケージを他に置き換えるだけで pandas のコードを Koalas にスケーリングすることができます。

■pandas

[crayon-5f2c25c9c82e8885293262/]

■Koalas

[crayon-5f2c25c9c82fb339312287/]

pandas は Python データサイエンスにとってスタンダードな言語

Python がデータサイエンスにおける1次言語として現れたことで、コミュニティは numpy や matplotlib、pandas などを含む、最も重要なライブラリをベースに言語を開発していきました。
これらの言語をデータサイエンティストが利用できれば、結果に向けて自分たちの考えをフルに表現し、そしてアイディアを辿ることができます。彼らは何かを概念化し、そしてすぐに実行に移すことに長けています。
しかし、自分たちの言語外のライブラリで取り組むこととなると、話は別です。
つまずいたり、数分おきにスタックオーバーフローを確認する羽目になり、自分たちのコード実行の為だけワークフローを割くこととなります。PySpark は簡単に利用することができ、pandas に非常に似ているとしても、2つは異なる言語なので、改めて学ぶ必要があることには変わりません。

Databricks では、以下の3つの理由から pandas を Spark で使えることはデータサイエンティストやデータドリブンな機関の生産性を高めると信じております。

■3つの理由

  • pandas か PySpark のどちらをデータセットに対して使うかの選択が不要となる
  • pandas で記述したコードも Spark に簡単にスケールアップできる
  • PySpark を学ぶ必要が無いので、より多くの機関やデータサイエンティストがビッグデータに取り組める

カテゴリ変数を用いた機能エンジニアリング

データサイエンティストは、ML モデルを構築する際、カテゴリ変数によく出くわします。
その際によく使われるテクニックは、ダミー変数としてカテゴリ変数をエンコードすることです。
下記のデータフレームを例にすると、コールの方法・近隣情報・ユニットタイプといった複数のカテゴリ変数があります。
pandas の get_dummies メソッドは、データフレームにダミー変数としてカテゴリ変数をエンコードするのにとても便利です。

■pandas を使ったエンコード方法

[crayon-5f2c25c9c830a259921433/]
  • 変更前のデータフレーム
    image.png
  • 変更後のデータフレーム
    image.png

Koalas を使えば、先程の pandas のコードを下記の様に微調整することで、 Spark 上でも同じことができるようになります。

■Koalas のコード

[crayon-5f2c25c9c831a594831927/]

タイムスタンプと計算

データサイエンティストはタイムスタンプに常に取り組む必要がありますが、これに常に関わるのはとても大変です。pandas を使った解決策を、下記の日付のデータフレームを例に紹介します。

■データフレーム

[crayon-5f2c25c9c8326262381546/]

pandas で End_date から Start_date を引く場合は、下記のコマンドを実行すれば可能です。

■コード

[crayon-5f2c25c9c8332229704935/]

■pandas で End_date から Start_date を引いた結果

[crayon-5f2c25c9c833e985363663/]

pandas を Koalas に置き換えれば、Spark 上でも同じことができます。
■Koalas のコード

[crayon-5f2c25c9c834b259285658/]

下記に、Reynold Xin 氏が Spark + AI Summit で Koalas の公式アナウンス発表の動画のリンクを載せてますので、ぜひ御覧ください。

Announcing Koalas Open Source Project | Reynold Xin (Databricks), Brooke Wenig (Databricks)

おわりに

翻訳まとめは以上となります。
Koalas をまだ試したことがない方は、この機会にぜひ利用してみてください。

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


Databricks Introduction について簡単にまとめてみた

はじめに

今回は Databricks Introduction という動画の内容をまとめてみました。
本動画のリンクは下記参照。

■リンク先
Introduction to Databricks

Databricks とは

Databricks の特徴

Databricksとは、Databricks 社が開発した 統合データ分析プラットフォームです。 Databricks を利用することで、ユーザは誰でも簡単に高度な解析ソリューションの構築とデプロイが可能となります。
スクリーンショット 2020-04-08 11.18.04.png

■Databricks の利用手順と利用方法
① データの入ったストレージ(Cloud Storage、Data Warehouse、Delta Lake など)を用意
② ストレージに クラウド上の Apache Spark と Databricks が接続
③ 接続後は以下のサービスを利用することができます

  • Notebook や Dashboard など Workspace の作成
  • サードパーティ の BI ツールの使用
  • Spark アプリのカスタマイズ

Apache Spark のコンポーネントについて

スクリーンショット 2020-04-08 11.26.50.png
Apache Spark には以下のコンポーネントが含まれております
■コンポーネント

  • Spark Core API
  • Spark SQL + DataFrames
  • ストリーミング
  • MLlib (機械学習)
  • GraphX (グラフ計算)

クラスタの立ち上げ

クラスタは、本番ETLパイプライン、ストリーミング分析、アドホック分析、機械学習などのデータエンジニアリング、データサイエンス、データ分析のワークロードを実行する一連の計算リソースと構成のことです。
スクリーンショット 2020-04-08 15.51.38.png
クラスタの立ち上げも簡単で、下記の項目を選択してクリックするだけです。
■選択する項目

  • クラスタ名
  • Spark のバージョン
  • インスタンスタイプ

豊富なビジュアルデザイン

スクリーンショット 2020-04-08 11.29.14.png
Databricks では以下の様なビジュアルデザインに関する機能があります。

■ビジュアルデザイン機能

  • Databricks 内でビジュアル化が可能(エクスポート不要
  • 円グラフ、棒グラフ以外にも豊富なビジュアルの選択が可能

notebook へのアクセス制限

スクリーンショット 2020-04-08 11.30.04.png
notebook には、以下の様な制限を設けることが可能です。

■設定可能な制限

  • 指定した notebook の公開設定
  • 指定した notebook へのアクセス可能なユーザの指定
  • アクセスできるユーザの notebook にたいする操作制限

コメント機能

スクリーンショット 2020-04-08 11.30.56.png
ユーザ同士でコメント機能を用いたコミュニケーションも可能です。
これにより、作業の引き継ぎやちょっとした伝達も簡単に行うことができます。

クラスタの編集と新規作成

スクリーンショット 2020-04-08 16.12.39.png
Databricks の左端のタブにある「Jobs」を選択することで、既存のクラスタの再編集や、既存のクラスタの設定を用いたまま、新規にクラスタを作成することもできます。

おわりに

Databricks Introduction についてのまとめは以上となります。
Databricks との特徴と機能について簡単にまとまっており、Databricksをサッと理解するのにとても良い動画なので、リンク先の本動画もぜひ見て下さい。

 

 

 

Azure Databricksの導入ならナレコムにおまかせください。

導入から活用方法までサポートします。お気軽にご相談ください。

Azure Databricksソリューションページはこちら

 

 


WVD ARM環境構築

はじめに

Windows Virtual Desktop(WVD)の環境構築方法が更新されました。
追加機能の紹介・環境構築手順を中心に解説していきます。

※2020年5月20日時点ではプレビュー状態です。

WVD ARMとは

WVD 構築方法が Azure Portal で設定可能です。

サービスの内容に変更はありません。
WVDについて知りたい方は以下をご参照ください
リモートワーク環境をサポートする WVD概要・構築手順

WVD と WVD ARMとの違い

WVD構築手順を例に解説します。

  • 既存の WVD で行う作業。
    • エンタープライズアプリケーションの作成(専用サイトで作業)
    • テナント作成(Power Shellで作業)など
    • ホストプール作成
  • WVD ARM での作業
    • ホストプール作成 (Azure Portalでの作業)

以上のように作業工程が改善されました。
作業工程が削減、作業画面が統一によって環境構築も容易に行えます。

変更・追加された機能は以下の通りです。

  • エンタープライズアプリケーションが不要
  • グローバル管理者権限が不要
  • サブスクリプション登録に変更
  • Azure Portal から構築が可能
  • MetaDataを保存するリージョン(地域)が選択可能
  • ホストプール作成時に、グローバル管理者アカウント不要
  • ユーザー登録時に、グループ登録が可能
  • Workspace機能が追加 (既存のWVD構築ではテナント作成に当たる)
  • Azure Portalからユーザ管理が可能

詳細な機能紹介は以下をご参照ください。
新生 VDI 誕生! WVD ARM とは?

構築構築手順(WVD ARM版)

以下が大まかな手順です。

① Azure Portal にサインイン
② Azure Active Directory Domain Services での作業
③ WVD での作業(WVDv2)
④ 接続

※注意事項

  • Azure アカウントが必要です。
  • Azure Active Directory Domain Services を利用して、全てAzure内で構築を行います。

① Azure Portal にサインイン・② Azure Active Directory Domain Services での作業

以下から作業を行ってください。

① Azure Portal にサインインから② Azure Active Directory Domain Services での作業

③WVD での作業(WVD ARM)

WVD での作業は以下の2つです。
下記 URL 「Step3 : Host Pool(+Desktop)」から「Step4 : ユーザーアカウントの追加」まで行います。

  • ホストプールの作成
  • ユーザーの追加

■URL
https://www.cloudou.net/windows-virtual-desktop/wvd016/

以下の項目はURLに沿ってホストプールの作成を進める際の補足事項です。

Step3 : Host Pool(+Desktop)補足情報

■ Basics
image.png

  • Subscription  :利用するサブスクリプションを選択 Microsoft Azureなど
  • Resource group :WVD用に作成します。「新規作成」から名前を入力
  • Host pool name :接続画面に表示する名前を入力
  • Location :ADDS設定でのリージョンと同じ場所に設定
  • Host pool type :[Pooled/Personal] PooledとPersonalの違い
    • Pooled
      • Max session limit :最大ユーザー割り当て数
      • Load balancing algorithm [Breadth-first / Depth-first]詳細
    • Personal
      • Assignment type :[Automatic / Direct]

■ Virtual Machines
image.png
image.png

  • Resource group  :WVD用に作成したリソースグループ名を入力
  • Virtual machine location :他の設定で選択したリージョン(地域)と同じ場所を選択
  • virtual machine size :マシンスペックの選択
  • Number of VMs  :作成する仮想デスクトップの数
  • Name prefix :仮想デスクトップの名前を入力
  • Image :使用用途に適したものを選択
  • OS disk type :通信速度の選択
  • Virtual network :接続させる仮想デスクトップを展開する仮装ネットワークを指定
  • Subnet :VDIを展開するサブネットを指定
  • Public IP :基本的に不要
  • Network security group :使用用途に適したものを選択
  • Public inbound ports :インタネットからの接続を許可する or 許可しない
  • Specify domain or unit : ドメインを使用する or 使用しない
    ※今回はADDSを使用しているのでNoを選択しました。
  • AD domain join UPN :ドメイン参加ユーザーを指定
  • Password :参加ユーザーパスワード
  • Confirm password :再度同じパスワードを入力

■ Workspace
image.png

  • Register desktop app group :Yes
  • To this workspace :作成する Workspace名 を入力

④ 接続

以下のURLからアカウントにサインインのあと接続します。
https://rdweb.wvd.microsoft.com/arm/webclient
image.png
「許可」をクリック。

image.png

使用するリソースを選択します。

image.png
ユーザー名・パスワードを入力。

image.png
これで、無事接続完了です。

最後に

最後まで読んでいただきありがとうございました。

WVD ARM ではWVD管理機能のポータル統合が行われました。
以前ではPower Shell での作業だった、テナント作成・Application Groups作成やユーザー管理がAzure Portalでの操作が実現。WVD構築作業の効率化につながりました。

この機会にWVD環境を試しては如何でしょうか?


リモートワーク環境をサポートする WVD 概要・環境構築

はじめに

現在、リモートワーク環境構築をクラウドで利用できるこのサービスに多くの注目が集まっていると思いますが、Windows Virtual Desktop(WVD)についてご存知でしょうか?
2019年10月11日にリリースされた Microsoft 社が提供している Microsoft Azure を活用した新しいVDI(仮想デスクトップ)サービスです。今回は、WVD の特徴や Azure 上での実際に環境構築を手順を解説していきたいと思います。

WVD について

WVD とは

Windows Virtual Desktop(WVD)は、Microsoft 社が2019年10月11日にリリースした Microsoft Azure 内のVDI サービスです。
リモートワークの状況下では全てのオフィスワーカーの生産性を上げることを目的としたサービスです。

■WVD の特徴

  • OSやアプリなどを1つのサーバに集約して運用管理を実施
  • VDI 環境の構築に必要なアプリを Microsoft Azure 上で提供
  • 環境構築の整備を素早く実施することが可能
  • 導入後のセキュリティも Microsoft 社管理のため、ユーザー側での管理やメンテナンスの心配も不要

WVD の構成要素

以下の図はWVDの構成要素です。
image.png
Microsoft側・ユーザー側それぞれで管理・設定が必要なものをまとめました。

■Microsoft 側で提供・管理

  • Web Access:利用するWVDでのサイトを管理
  • Diagnostics:仮想環境ごとの利用状況の監視
  • Gateway:安全な通信経路の提供
  • Broker:ユーザーごとに仮想環境を割り振り
  • Azure SQL Database:接続するユーザーの情報を保存

■ユーザ側で設定

  • Desktops:仮想デスクトップ環境
  • Applications:仮想アプリケーション環境
  • ADDS:ユーザー認証基盤
  • User Profile:ユーザーごとの環境情報を保存するストレージ

WVD のメリット

WVD を使用する主なメリットを5つ紹介したいと思います。

1. Windows10 マルチユーザーが利用可能

一般に提供されている Windows10 は、1ユーザに1つのマシン環境が必要でした。WVD で提供される Windows10 は1つの仮想マシンに複数のユーザが同時に利用できます。ユーザごとに仮想マシンを利用しないため、クラウド利用・運用コストが削減できます。

2. Office365 が快適に利用可能

WVD の Windows10 には Fslogix テクノロジーが搭載されています。
Office365 のキャッシュフォルダーの最適化、プロファイルの高速化によって VDI 環境でのログイン速度やパフォーマンスの劣化を解決することができます。

3. Windows7 の無償セキュリティ延長プログラム

2020年1月にサービスを終了した Windows7 ですが、Azure 上で WVD を利用すると最大3年間の無償セキュリティ更新プログラムを受けられるため、 Windows7 を安全に保ち続けることができます。
Windows10 への移行が不要なアプリケーションや、再開発のコストを抑えるといった場合にも活用できます。

4. Azure によるコスト削減

WVD は Azure 上で提供・管理されています。 VDI 環境の拡張に容易に対応できるようデプロイの柔軟性を追求しており、 Azure の全ての地域にデプロイ可能です。そのため、利用者の活動拠点に合わせた設計が実現できます。
システムの上限を気にする必要も無く、小規模からの導入も可能です。

5. Microsoft 社の管理によるセキュリティの向上

Microsoft 社ではセキュリティの向上に力を入れており、下記の内容を実践することでセキュリティの工場と信頼性を確保しております。

■セキュリティ向上に向けた3つの企業努力

  • サイバーセキュリティーの開発に年間10億ドルの投資
  • データセキュリティとプライバシーを専門とするエキスパート3500人以上が活動
  • Azure は世界中に90以上のコンプライアンス認定を取得

WVD のライセンスと料金

WVD のライセンス

WVD を使用する OS バージョンによって、必要なライセンスは異なります。

image.png

※必要なライセンスに加えて、Microsoft Azure 利用料も発生します

WVD料金モデル

以下の条件で WVD を利用した場合の月額料金を簡単に見積もりました。
ご参考程度ですが、ご参照ください。

■利用構成

  • 利用ユーザー : 10人
  • 仮想マシンスペック : 簡単なデータ入力、ウェブブラウジング、Office製品の利用
  • ストレージ : 1個あたり128GB(頻繁に入出力が発生するアプリケーション等の利用を想定)
  • ライセンス : Microsoft365 E3(年間契約)

■マルチセッションの場合
image.png
※​1ユーザーあたり、3,480円/月

■シングルセッションの場合
image.png
※1ユーザーあたり、3,480円/月

※必要な仮想マシン台数がセッションごとで違いがあるため、Azrue 利用料に違いがあります。

  • シングルセッション 利用ユーザーごとに仮想マシンが必要
  • マルチセッション  1台に複数のユーザーが利用可能

環境構築手順

ここからは、環境構築の手順を紹介していきます。大まかな手順は以下となります。

① Azure Portalにサインイン
② Azure Active Directory Domain Servicesでの作業
③ WVDでの作業
④ 接続

※注意
・今回はAzure上で全環境構築を行います
・グローバル管理者権限を持つAzureアカウントが必要です。

① Azure Portalにサインイン

以下のURLからサインインします。
https://azure.microsoft.com/ja-jp/features/azure-portal/
サインイン後、「ポータル」をクリック

image.png
図の Azure Portal 画面に出たら、検索欄に「Azure Active Directory Domain Services」と入力します。

② Azure Active Directory Domain Services(ADDS) での作業

Azure Active Directory Domain Services(ADDS)では、下記 URL に沿って以下の作業を実施します。

■URL
https://docs.microsoft.com/ja-jp/azure/active-directory-domain-services/tutorial-create-instance#create-an-instance

■作業内容

  • インスタンスの作成
  • マネージドドメインのデプロイ
  • Azure 仮想ネットワークのDNS 設定を更新
  • Azure AD DS のユーザーアカウントを有効化

インスタンスの作成補足情報

■①基本情報の入力
image.png

  • サブスクリプション:設定時の状況により変動
  • リソースグループ:ADDS用のリソースグループを作る [新規作成]  ※リソースグループ 各システムを管理するもの
  • DNSドメイン名:インスタンスの作成内の考慮事項を下に作成
  • 地域:使用する リージョン(システムを保管する場所)を選択
  • SKU :価格プラン。使用用途により変動 価格プラン内容詳細
  • フォレストの種類:設定時の状況により変動

■②ネットワーク
image.png

  • 仮想ネットワーク: ※WVDをここで作った仮想ネットワークに所属させる
  • サブネット:ADDS内で使用

■③管理・メンバーの追加
image.png
以下の項目をクリック

  • ①「グループメンバーシップの管理」をクリック
  • ②「メンバーの追加」をクリック
  • ③追加するメンバー選び「選択」をクリック

③ WVD での作業

WVD での作業は以下の3つです。
下記 URL「ステップ3:エンタープライズアプリケーションの作成」から行っていきます。

  • エンタープライズアプリケーションの作成
  • テナントの作成
  • ホストプールの作成

■URL
https://www.cloudou.net/windows-virtual-desktop/wvd002/

以下の項目はURLに沿ってホストプールの作成を進める際の補足事項です。

ホストプールの作成補足情報

■基本
image.png

  • サブスクリプション :利用するサブスクリプションを選択 Microsoft Azureなど
  • リソースグループ : WVD 用に作ります。「新規作成」から名前を入力
  • リージョン :ADDS設定でのリージョンと同じ場所に設定
  • Hostpool name :ホストプール名を入力
  • Desktop type : 使用用途に沿って選択 PooledとPersonalの違い
  • Default desktop users :仮想デスクトップ環境にログインさせるアドレスを入力
  • Service metadata location :AADDS設定でのリージョンと同じ場所に設定

■Configure Virtual machines
image.png

  • Create an Availability set :設定時の状況により変動
  • Usage Profile :適した値を選択
  • Total users :適した人数を入力
  • Virtual machine size :適したサイズを選択
  • Virtual machine name prefix :仮想マシンの名前を入力 使用するVDI自体の名前

■Virtual machine settings
image.png

  • Image source :設定時の状況により変動
  • Image OS version :使用用途に適したOSバージョンを選択
  • Disk Type :使用用途に適した通信速度を選択  ※通信速度によって値段が変わります。
  • AD domain join UPN :管理者ユーザー
  • Admin Password :管理者パスワード
  • Confirm Password :もう一度管理者パスワード
  • Specify Domain or OU :設定時の状況により変動
  • Virtual network : WVD用で作ったものを選択
  • vmSubnet :WVD用サブネットを選択

■Windows Virtual Desktop information

image.png

  • Windows Virtual Desktop tenant group name :そのまま
  • Windows Virtual Desktop tenant name :環境構築手順・テナント作成で作ったもの
  • Windows Virtual Desktop tenant RDS Owner :UPNを選択
  • UPN :管理者アカウント
  • Password :管理者パスワード
  • Confirm password :再度一度管理者パスワード

④接続方法ここではWebクライアントに接続していきます。

以下のURLから登録したアカウントでサインインします。
https://rdweb.wvd.microsoft.com/webclient

image.png
「許可」をクリック。

image.png

使用するリソースを選択します。

image.png
ユーザー名・パスワードを入力。

image.png
これで、無事接続完了です。

補足

構築は解説や説明が分かりづらい部分もあると思うので、以下のリンクもご参照ください。

■ WVDについて

■環境構築

最後に

最後まで読んでいただきありがとうございました。

WVDでは 仮想マシン、ユーザーからの接続を受け付けるゲートウェイなど VDI環境構築に必要なサービスが全て Azure で提供されています。

WVDを使用したリモートワーク環境をこの機会にご検討してみてはいかがでしょうか?

 


5/21(木) 「自宅からでOK! Azure で始めるデータ分析ことはじめ ~ データ分析もリモートワークスタイルから ~」オンライン座談会を開催します!

はじめに

この度、マイクロソフト社と共同開催にて
「自宅からでOK! Azure で始めるデータ分析ことはじめ~ データ分析もリモートワークスタイルから ~」と題しましたオンライン座談会を開催することとなりました。

今回のウェビナーでは、

  • Azureを用いたデータ分析方法について、実際の事例から導入のための考え方や工夫のご紹介
  • Azure Windows Virtual Desktopを使ってリモートワーク環境下でセキュアに最適な分析環境の実践方法のデモンストレーション

を予定しています。

また、終了後には座談会形式で日頃のお悩みについて、口頭またはチャット機能でご質問いただけるQnAタイムも設けております。

こんな方におすすめです

  • AI活用をこれから導入を考えている方(データ分析未経験でも可)
  • リモートワークでのデータ分析環境にお困りの方

開催概要

スピーカー

日本マイクロソフト株式会社
塚本修一様

株式会社ナレッジコミュニケーション
中西 貴哉
井村 真樹

株式会社ナレッジコミュニケーションについてのご紹介

株式会社ナレッジコミュニケーションでは、これまで下記のような取り組みを行なっております。

■検証記事
・Azureデータ分析入門 #1 【はじめに】
https://azure-recipe.kc-cloud.jp/2019/09/excel-azure-notebook-databricks-01/
・WVD(Azure Windows Virtual Desktop)検証記事
https://azure-recipe.kc-cloud.jp/2020/05/remote/
・AzureML検証記事
https://azure-recipe.kc-cloud.jp/category/bigdata/

■実績掲載
名古屋大学様及び中部電力様 事例
https://prtimes.jp/main/html/rd/p/000000008.000004474.html
トヨタ情報システム愛知株式会社様 事例
https://www.zaikei.co.jp/releases/709075/

タイムスケジュール

ご参加方法

以下のURLをクリックしていただき、「イベントに登録」フォームで必要事項のご記入をお願いいたします。
https://mktoevents.com/Microsoft+Event/177302/157-GQE-382?ls=Website&lsd=AzureWebsite
申し込み完了後、Microsoft TeamsのURLを発行いたしますので、そちらからご参加をお願いいたします。

ランチタイムのお時間での開催になりますので、リラックスしながらご参加いただければと思います。
それでは、皆様のご参加を心よりお待ちしております。