Microsoft Build Japanセッションレポート【AI 導入に伴うデータセキュリティの重要性】

はじめに

2024年6月28日(金)に開催された「Microsoft Build Japan」Day2にオンラインで参加しました。

本記事は、セッション「AI 導入に伴うデータセキュリティの重要性」の内容のうち、以下について記載します。

  • 生成AI利用によるセキュリティ課題
  • Microsoft 365 Copilotにおけるデータ保護方法
  • Purviewによるセキュリティ対策
  • セキュリティ対策の基本ルール

イベント概要

「Microsoft Build Japan」は、米国で5月に開催された年次開発者会議「Microsoft Build」の最新情報と日本独自のコンテンツを日本の開発者向けに提供するものです。

1. AI導入時に注意すべき点

AIの重要性が増すほどデータガバナンスとセキュリティの課題が増大する

課題

  • 既存の課題が増幅される
    • ユーザ本人も知らないアクセス可能なデータが存在する。水面下で何も起きていなかったことが表面化する。
  • データの価値が高まる
    • 生成AIが出力したデータ(例えば複数資料を要約したデータ)の価値は高い。社外、悪意のある人にとっても価値が高い。価値が高まる=危険も高まる。
  • データ漏洩の新たな経路
    • 生成AIを利用することでデータ入出力箇所が増え、ファイル作成も可能なため、データ漏洩の経路が増える。

生成AIの重要性が増すほど、データガバナンスとセキュリティ対策が大事になります。
本記事では、上記のような課題に対し、Microsoftのサービスでどのような対策を取れるかご紹介します。

2. 対策

1. Microsoft 365 Copilotにおけるデータ保護方法

Microsoft 365のポリシーやコントロールを継承

Microsoft 365 Copilotは、既存の認証サービス、役割(ロール)をベースに、同じような堅牢さを持ちます。

  • データのアクセスと権限
    • 少なくとも閲覧権限を持つユーザにだけデータを提供する。例えば自身の上司しか知らない情報、特定部署しか知らない情報を、自身の質問に対するアウトプットとしては出さない。
    • Microsoft 365サービス内の権限モデルを活用して、ユーザやグループに適切なアクセスを確保可能。
  • ユーザのテナントのみ
    • 分析できるのは利用ユーザのテナントのみ。
  • 顧客データの保護
    • 各テナントの顧客データは論理的に分離され、転送中に暗号化して保護している。
  • データ処理とデータの居住地
    • CopilotはGDPR、EUDBに準拠している。

LLMを介して処理されるデータの保護

  • 利用
    • すべてのプロンプトを含めた取得データはサービスの境界内で保持される。
  • 生成
    • Microsoft社が責任をもって取り組んでいる。公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任を中心に展開している。
  • 所有権
    • 所有権のあるデータ(顧客データ)はLLMのトレーニングには使用されない。

2. Purviewの秘密度ラベルとの連携

Copilotの会話は、参照されたファイルの秘密度ラベルを継承

秘密度ラベルによって、該当ファイルを誰が閲覧可能か、を設定可能です。
例えば、「企業の機密情報」というラベルがファイルに適用された場合、誤ってファイルが外部に出たとしても、閲覧権限を持たないユーザは中身を閲覧することができません。
Copilotの会話全体に対し、秘密度ラベルを適用することができます。

3. 3つの『黄金のルール』

生成AI導入時のセキュリティのルールとして、以下3点の紹介がありました。

1. データアクセス制御(API、ACLs、秘密度ラベル)

  • 現在うまくいっているデータアクセス制御を変更しない。境界を広げない方が良い。

2. アプリケーション制御(アクセス、インプット、アウトプット)

  • 無制限のアクセスを与えない。
    • 例:部署ごとにアプリケーションを分ける。

3. AIモデル制御

  • 保護レイヤーをたくさん置く。AIの特定タスク実行を防御する。
  • メタプロンプトとAIのガードレールを考慮する。
    ※メタプロンプトとは:ユーザが利用するプロンプトより上位のレイヤーで規定を指定すること。

3. まとめ

AIセキュリティの基本コンセプト

生成AIを導入する際には、以下のポイントを押さえてセキュリティ対策を行うことが重要です。

  1. AIの利用:ユーザのトレーニング、ポリシー(ユーザがどのようにAIを利用するのか規定し通知する)
  2. データ:データへのアクセス制御
  3. AIアプリ:AIアプリの保護
  4. AIモデル:AIモデルの保護

感想

AIの導入に伴う新たなセキュリティ課題と、それに対するMicrosoftの取り組みについて勉強になる内容でした。

特に印象的だったのは、AIの導入によって既存のデータセキュリティの課題が増幅されるだけでなく、新たな脅威も生まれるという点です。生成AIの攻撃ポイントや新しいリスクについての説明は、AIを安全に活用するための重要な視点を提供してくれました。

また、Microsoft 365 Copilotにおけるデータ保護方法や、Purviewの秘密度ラベルとの連携など、具体的な対策についての説明も非常に有益でした。

最後に紹介された「3つの黄金のルール」と「AIセキュリティの基本コンセプト」は、AIを安全に活用するための実践的なガイドラインとして非常に有用だと感じました。

この記事を書いた人

azure-recipe-user