-
Security
“シャドーAI”可視化:社内で勝手に使われる生成AIをどう捕まえるか
■ 1. シャドーAIとは何か──「悪意」はなくても“危険” “シャドーAI” とは、会社が許可して […] -
Security
危険なツール呼び出し(Agentic AI)の制御方法
■ 1. Agentic AIとは何か──“行動できるAI”のリスク ChatGPT に代表される […] -
Security
セマンティックキャッシュで“安全とコスト”を両立する
🧠 1. セマンティックキャッシュとは何か 従来のキャッシュは、「まったく同じ文字列の質問」に対して […] -
Security
RAGのガバナンス:権限/RBAC/Lineage/監査ログ設計
■ はじめに:RAGが便利なほど“ガバナンスの重さ”は増す Day1〜Day14で繰り返し触れてきた […] -
Security
プロンプトの“静的検査”と“実行時検査”の組み合わせ
■ はじめに:プロンプト攻撃は“入力だけ”の問題ではない 生成AIのセキュリティ事故は、入口(プロン […] -
Security
PII自動マスキング実装パターン(入力・出力・ログ)
■ はじめに:生成AI時代の「個人情報リスク」は“人の操作”では防げない 生成AIが業務に入り込むと […] -
Security
Azure AI Content Safetyの活用ポイント
■ はじめに:生成AIの“ガバナンス層”としての役割 Azure AI Content Safety […] -
Security
セーフプロンプト設計の基本原則(テンプレ化のコツ)
■ はじめに:AIの“振る舞い”はプロンプトで決まる 生成AIを使う際、もっとも誤解されやすいポイン […] -
Security
データ分類と生成AI:PII / 機密 / 知財の扱い方
■ はじめに:AI活用の成否は「データ分類」で決まる 生成AIの導入が加速する一方、次のような困りご […] -
Security
“業務利用の境界線”設計:何をLLMに渡してよいか —情シスと現場が迷わないための“線引き”の作り方—
■ はじめに:AI活用の最大の悩みは「どこまで入力していいか」 生成AIが社内に広がるほど、次のよう […]