• “シャドーAI”可視化:社内で勝手に使われる生成AIをどう捕まえるか

    ■ 1. シャドーAIとは何か──「悪意」はなくても“危険” “シャドーAI” とは、会社が許可していない生成AIサービスを社員が個人的に業務利用する行為のことです。 ChatGPT(個人アカウント) Gemini / […]

  • 危険なツール呼び出し(Agentic AI)の制御方法

    ■ 1. Agentic AIとは何か──“行動できるAI”のリスク ChatGPT に代表される LLM は、「文章を生成するAI」から「外部ツールを操作するAI」へ進化しました。この Agentic AI(エージェン […]

  • セマンティックキャッシュで“安全とコスト”を両立する

    🧠 1. セマンティックキャッシュとは何か 従来のキャッシュは、「まったく同じ文字列の質問」に対してのみ結果を再利用します。しかし生成AIの世界では、質問の書き方が少し違うだけで意味は同じことが多いため、文字列一致型のキ […]

  • Foundry IQ入門:Azure AI SearchのKnowledge BaseでマルチソースRAGを統合する

    はじめに この記事は株式会社ナレッジコミュニケーションが運営するチャットボット と AIエージェント Advent Calendar 2025 の16日目にあたる記事になります! RAG(Retrieval-Augmen […]

  • RAGのガバナンス:権限/RBAC/Lineage/監査ログ設計

    ■ はじめに:RAGが便利なほど“ガバナンスの重さ”は増す Day1〜Day14で繰り返し触れてきたように、生成AIの攻撃面は 「AI自身」だけでなく「AIが読むデータ」まで広がる のが特徴です。 https://qii […]

  • プロンプトの“静的検査”と“実行時検査”の組み合わせ

    ■ はじめに:プロンプト攻撃は“入力だけ”の問題ではない 生成AIのセキュリティ事故は、入口(プロンプト)だけではなく、出口(モデル出力)から起きるケースが急増しています。 “無視せよ系”の攻撃が入力に紛れている RAG […]

  • PII自動マスキング実装パターン(入力・出力・ログ)

    ■ はじめに:生成AI時代の「個人情報リスク」は“人の操作”では防げない 生成AIが業務に入り込むと、次のようなシーンはあっという間に発生します。 ・ユーザーがチャットにうっかり名前を書いてしまう ・FAQボットが社内文 […]

  • Azure AI Content Safetyの活用ポイント

    ■ はじめに:生成AIの“ガバナンス層”としての役割 Azure AI Content Safety は、AIモデルの前後に “安全フィルタ” を置くことで、ユーザー入力・AI出力の両方を監査・制御できるガバナンス層 を […]

  • セーフプロンプト設計の基本原則(テンプレ化のコツ)

    ■ はじめに:AIの“振る舞い”はプロンプトで決まる 生成AIを使う際、もっとも誤解されやすいポイントがあります。 「プロンプトはただの入力文ではなく、AIの“安全装置”でもある」 プロンプトの書き方ひとつで、 情報漏え […]

  • データ分類と生成AI:PII / 機密 / 知財の扱い方

    ■ はじめに:AI活用の成否は「データ分類」で決まる 生成AIの導入が加速する一方、次のような困りごとが増えています。 「この情報、AIに入れていいの?」 「要約だけなら大丈夫?」 「コードはどこまで貼っていいの?」 実 […]