-
生成AI
LLMレッドチーミング入門:最小で始める疑似攻撃診断
■ 1. LLMレッドチーミングとは何か──“攻撃者の視点”で安全性を試す 企業が生成AIを本番運用 […] -
生成AI
“シャドーAI”可視化:社内で勝手に使われる生成AIをどう捕まえるか
■ 1. シャドーAIとは何か──「悪意」はなくても“危険” “シャドーAI” とは、会社が許可して […] -
生成AI
危険なツール呼び出し(Agentic AI)の制御方法
■ 1. Agentic AIとは何か──“行動できるAI”のリスク ChatGPT に代表される […] -
生成AI
セマンティックキャッシュで“安全とコスト”を両立する
🧠 1. セマンティックキャッシュとは何か 従来のキャッシュは、「まったく同じ文字列の質問」に対して […] -
生成AI
Foundry IQ入門:Azure AI SearchのKnowledge BaseでマルチソースRAGを統合する
はじめに この記事は株式会社ナレッジコミュニケーションが運営するチャットボット と AIエージェント […] -
生成AI
RAGのガバナンス:権限/RBAC/Lineage/監査ログ設計
■ はじめに:RAGが便利なほど“ガバナンスの重さ”は増す Day1〜Day14で繰り返し触れてきた […] -
生成AI
プロンプトの“静的検査”と“実行時検査”の組み合わせ
■ はじめに:プロンプト攻撃は“入力だけ”の問題ではない 生成AIのセキュリティ事故は、入口(プロン […] -
生成AI
PII自動マスキング実装パターン(入力・出力・ログ)
■ はじめに:生成AI時代の「個人情報リスク」は“人の操作”では防げない 生成AIが業務に入り込むと […] -
生成AI
Azure AI Content Safetyの活用ポイント
■ はじめに:生成AIの“ガバナンス層”としての役割 Azure AI Content Safety […] -
生成AI
セーフプロンプト設計の基本原則(テンプレ化のコツ)
■ はじめに:AIの“振る舞い”はプロンプトで決まる 生成AIを使う際、もっとも誤解されやすいポイン […]