• セマンティックキャッシュで“安全とコスト”を両立する

    🧠 1. セマンティックキャッシュとは何か 従来のキャッシュは、「まったく同じ文字列の質問」に対してのみ結果を再利用します。しかし生成AIの世界では、質問の書き方が少し違うだけで意味は同じことが多いため、文字列一致型のキ […]

  • Foundry IQ入門:Azure AI SearchのKnowledge BaseでマルチソースRAGを統合する

    はじめに この記事は株式会社ナレッジコミュニケーションが運営するチャットボット と AIエージェント Advent Calendar 2025 の16日目にあたる記事になります! RAG(Retrieval-Augmen […]

  • RAGのガバナンス:権限/RBAC/Lineage/監査ログ設計

    ■ はじめに:RAGが便利なほど“ガバナンスの重さ”は増す Day1〜Day14で繰り返し触れてきたように、生成AIの攻撃面は 「AI自身」だけでなく「AIが読むデータ」まで広がる のが特徴です。 https://qii […]

  • プロンプトの“静的検査”と“実行時検査”の組み合わせ

    ■ はじめに:プロンプト攻撃は“入力だけ”の問題ではない 生成AIのセキュリティ事故は、入口(プロンプト)だけではなく、出口(モデル出力)から起きるケースが急増しています。 “無視せよ系”の攻撃が入力に紛れている RAG […]

  • PII自動マスキング実装パターン(入力・出力・ログ)

    ■ はじめに:生成AI時代の「個人情報リスク」は“人の操作”では防げない 生成AIが業務に入り込むと、次のようなシーンはあっという間に発生します。 ・ユーザーがチャットにうっかり名前を書いてしまう ・FAQボットが社内文 […]

  • Azure AI Content Safetyの活用ポイント

    ■ はじめに:生成AIの“ガバナンス層”としての役割 Azure AI Content Safety は、AIモデルの前後に “安全フィルタ” を置くことで、ユーザー入力・AI出力の両方を監査・制御できるガバナンス層 を […]

  • セーフプロンプト設計の基本原則(テンプレ化のコツ)

    ■ はじめに:AIの“振る舞い”はプロンプトで決まる 生成AIを使う際、もっとも誤解されやすいポイントがあります。 「プロンプトはただの入力文ではなく、AIの“安全装置”でもある」 プロンプトの書き方ひとつで、 情報漏え […]

  • データ分類と生成AI:PII / 機密 / 知財の扱い方

    ■ はじめに:AI活用の成否は「データ分類」で決まる 生成AIの導入が加速する一方、次のような困りごとが増えています。 「この情報、AIに入れていいの?」 「要約だけなら大丈夫?」 「コードはどこまで貼っていいの?」 実 […]

  • “業務利用の境界線”設計:何をLLMに渡してよいか —情シスと現場が迷わないための“線引き”の作り方—

    ■ はじめに:AI活用の最大の悩みは「どこまで入力していいか」 生成AIが社内に広がるほど、次のような質問が急増します。 「この資料、AIに投げていいの?」 「固有名詞だけ伏せれば安全?」 「データの“境界線”って誰が決 […]

  • AI事業者ガイドラインを“社内ルール”へ落とし込む実務ステップ

    ■ はじめに ここ数カ月、各社で共通して聞こえてくる声があります。 「結局、何を決めれば“安全にAIを使っている”と言えるのか?」 生成AIの導入が広がる一方、判断の軸が社内に存在しないことで、情シス側もビジネス側も、ど […]